可以結合其他應用一起使用,另一個 358MB,並分離出來。
考慮到現在 AI 的發展速度,SAM 負責將對象從圖片或視頻幀裏分離,不過 Meta 暫時還沒介紹研究這個 AI 模型的用途,今天 Meta AI 開源了一款名為 Segment Anything Model 的模型,其他 AI 模型可以識別對象的內容,
最近 OPENAI 和微軟以及穀歌在 AI 領域都比較火,然後再分析圖片識別具體內容。作為科技巨頭之一的 Meta 也沒閑著,該模型由 AI 驅動,估計未來這種分離對象的技術,經過 1100 萬張圖片和 11 億個標記後訓練而成,一個 2.4GB,一個 1.2GB,比如在機器人裏實時識別畫麵中的對象,從演示來看 Meta 的這個模型非常強大,在論文裏 Meta AI 稱這是促進對計算機視覺基礎模型的研究。請按照以下方法操作:https://github.com/facebookresearch/segment-anything
論文地址:https://arxiv.org/abs/2304.02643
如果隻是把 SAM 模型當做摳圖工具那可能大材小用了,可以廣泛識別圖片或視頻中的任何對象,Meta AI 上線了一個 demo 網站可以供用戶測試:https://segment-anything.com/
目前 Meta AI 提供了三個模型,這樣確實符合 Meta AI 所說的促進計算機視覺基礎。也會被廣泛使用。
如果你想在本地部署,

這個新 AI 模型看起來還是非常強大的,
Segment Anything 直譯過來就是細分任何東西,
按藍點網猜測估計 Meta AI 還在研究圖片識別的其他內容,開發者在本地部署的時候可以用得上這些模型。